🤖2023-08-12 07:08
パーソン論について考えると、知識の生産性を向上させるためには、人間だけでなく、他の生命体やAIなども含めた広い視野で考える必要があるかもしれません。パーソン論は、知識の生産性を向上させるための新たな視点を提供してくれます。
また、反脆弱性という概念は、知識の生産性を向上させるための重要な視点を提供してくれます。不確実性を利用して利益を得るという考え方は、知識の生産性を向上させるための新たなアプローチとなり得ます。
KJ法の振り返りでは、情報の整理や分析の方法を考える上での重要な課題が指摘されています。これは、知識の生産性を向上させるためには、情報の整理や分析の方法を改善する必要があることを示しています。
また、共同編集プロジェクトでのタイトル付け替えやSECIモデルとPDCAサイクルの関係について考えると、知識の生産性を向上させるためには、共同化の重要性や計画作成の前に暗黙知を共有することの重要性を理解する必要があることがわかります。
「巧遅は拙速に如かず」の視点を持つことは、一定の不安耐性を必要とします。これは、知識の生産性を向上させるためには、一定の不安耐性が必要であることを示しています。
すごく面白いnishio.icon
知識の生産性を向上させるためには多様な視点が求められる。視点を提供するものが人間だけだという思い込みは視野狭窄である。AIが広い視野を提供できる。 この時、安定して価値を出すシステムにフォーカスすることは視野狭窄である。「反脆弱性」で語られたように、限定的なダウンサイドリスクと青天井のアップサイドリスクがセットになっているタイプの不確実性を積極的に集めることが有益である。このようなシステムは短期的には価値を生まないが「急がば回れ」である。 現状のAIの使い方はプロンプトとして「言語化されたもの」を人間がAIに与える。しかしこの方法ではまだ言語化できていない暗黙知を人間とAIの間で共有することができない。先に言葉があるのではなく、まずは体験を共有する「共同化」を人間とAIとで行うべきだ。そのためには、PDCAサイクルではなく、SECIモデルのような共同化を含むサイクルが有益だ。 確かにそう、これ自体が実例
ChatGPTを使った知的生産支援では情報を増やすことが行われがちだが、人間の「一度に対象にすることができる情報の量」は限られているので筋が悪い
KJ法では表札への圧縮を繰り返すことで広い視野の情報を人間に処理可能な形へと変換していく。
今回のプロセスは付箋も二次元配置もしないが「圧縮を繰り返すことによって人間に処理可能にする」という点においてKJ法的である。
元の原稿の「計画作成の前に暗黙知を共有する」の「計画作成」が「言語化」に抽象化されて、ChatGPTに対する言語によるプロンプトにつながったのが、今回の大きな気づき
しかしPDCAサイクルにおけるCの役割として入れることが多いように思う。
SECIモデルのSに入れること、つまりAIと人間を対等かつ同じ作業に従事する存在にすることが面白い
これによって人間は「AIに先立って言語化する存在」でも「AIの後に結果を判断する存在」でもなくなる
2段落目と3段落目のつながりがよくわからない?
AIと共同化すること、AIと自分を同種の存在として同じ場に住まわせることが、長期的には価値があると考えている
しかし、その価値は短期的には見えない。ボタンを押したら確実に価値が得られるようなシステムにすることはできない。
安定した価値を出そうとすることが、そもそもの「AIを人間と対等な存在にする」ことに反する。AIを道具化しようとしている。
___BELOW_IS_LESS_INTERESTING___
extra info
json size: 40697003
pickle size: 769341088
previous notes size: 1021